人工智能(AI)启用的自主实验为加速科学发现提供了新的范式。非平衡材料合成是复杂,资源密集型实验的象征性,其加速将是物料发现和发展的流域。最近通过高吞吐量实验加速了非平衡合成相图的映射,但仍然限制了材料研究,因为参数空间太大而无法彻底探索。我们通过科学自主推理代理(SARA)管辖的分层自主实验,证明了加速的合成和促进亚稳材料。 SARA将机器人材料合成和表征与AI方法的层次集成,有效地揭示了处理相图的结构。 SARA设计横向梯度激光尖峰退火(LG-LSA)实验,用于平行材料合成,采用光学光谱速度迅速识别相转变。利用嵌套的主动学习(AL)周期实现了多维参数空间的高效探索,该嵌套主动学习模型包括实验的底层物理以及端到端的不确定性量化。有了这个,萨拉在多种尺度处的协调体现了复杂的科学任务的AI利用。我们通过自主映射综合映射_3 $ System的综合相位边界来展示其性能,导致幅度加速度,即建立一个合成相图,其中包括动力学稳定$ \ delta $ -bi $的条件_2 $ o $ _3 $在室温下,用于氧化固体氧化物燃料电池等电化学技术的关键开发。
translated by 谷歌翻译
The number of international benchmarking competitions is steadily increasing in various fields of machine learning (ML) research and practice. So far, however, little is known about the common practice as well as bottlenecks faced by the community in tackling the research questions posed. To shed light on the status quo of algorithm development in the specific field of biomedical imaging analysis, we designed an international survey that was issued to all participants of challenges conducted in conjunction with the IEEE ISBI 2021 and MICCAI 2021 conferences (80 competitions in total). The survey covered participants' expertise and working environments, their chosen strategies, as well as algorithm characteristics. A median of 72% challenge participants took part in the survey. According to our results, knowledge exchange was the primary incentive (70%) for participation, while the reception of prize money played only a minor role (16%). While a median of 80 working hours was spent on method development, a large portion of participants stated that they did not have enough time for method development (32%). 25% perceived the infrastructure to be a bottleneck. Overall, 94% of all solutions were deep learning-based. Of these, 84% were based on standard architectures. 43% of the respondents reported that the data samples (e.g., images) were too large to be processed at once. This was most commonly addressed by patch-based training (69%), downsampling (37%), and solving 3D analysis tasks as a series of 2D tasks. K-fold cross-validation on the training set was performed by only 37% of the participants and only 50% of the participants performed ensembling based on multiple identical models (61%) or heterogeneous models (39%). 48% of the respondents applied postprocessing steps.
translated by 谷歌翻译
Strategic test allocation plays a major role in the control of both emerging and existing pandemics (e.g., COVID-19, HIV). Widespread testing supports effective epidemic control by (1) reducing transmission via identifying cases, and (2) tracking outbreak dynamics to inform targeted interventions. However, infectious disease surveillance presents unique statistical challenges. For instance, the true outcome of interest - one's positive infectious status, is often a latent variable. In addition, presence of both network and temporal dependence reduces the data to a single observation. As testing entire populations regularly is neither efficient nor feasible, standard approaches to testing recommend simple rule-based testing strategies (e.g., symptom based, contact tracing), without taking into account individual risk. In this work, we study an adaptive sequential design involving n individuals over a period of {\tau} time-steps, which allows for unspecified dependence among individuals and across time. Our causal target parameter is the mean latent outcome we would have obtained after one time-step, if, starting at time t given the observed past, we had carried out a stochastic intervention that maximizes the outcome under a resource constraint. We propose an Online Super Learner for adaptive sequential surveillance that learns the optimal choice of tests strategies over time while adapting to the current state of the outbreak. Relying on a series of working models, the proposed method learns across samples, through time, or both: based on the underlying (unknown) structure in the data. We present an identification result for the latent outcome in terms of the observed data, and demonstrate the superior performance of the proposed strategy in a simulation modeling a residential university environment during the COVID-19 pandemic.
translated by 谷歌翻译
在原始文本中训练的语言模型(LMS)无法直接访问物理世界。 Gordon和Van Durme(2013)指出,LMS因此可能会遭受报告偏见的困扰:文本很少报告常见事实,而是关注情况的异常方面。如果LMS仅接受文本语料库的培训,并天真地记住当地的同时出现统计数据,那么他们自然会学会对物理世界的偏见。虽然先前的研究反复验证了较小尺度的LM(例如Roberta,GPT-2)放大了报告偏差,但在模型扩展时,这种趋势是否继续。我们从较大语言模型(LLM)(例如Palm和GPT-3)中从颜色的角度研究报告偏见。具体而言,我们查询llms对物体的典型颜色,这是一种简单的感知扎根的物理常识。令人惊讶的是,我们发现LLM在确定对象的典型颜色和更紧密地跟踪人类判断方面的表现明显优于较小的LMS,而不是过于适应文本中存储的表面图案。这表明,仅凭语言的大型语言模型就能克服以局部共发生为特征的某些类型的报告偏差。
translated by 谷歌翻译
ICECUBE是一种用于检测1 GEV和1 PEV之间大气和天体中微子的光学传感器的立方公斤阵列,该阵列已部署1.45 km至2.45 km的南极的冰盖表面以下1.45 km至2.45 km。来自ICE探测器的事件的分类和重建在ICeCube数据分析中起着核心作用。重建和分类事件是一个挑战,这是由于探测器的几何形状,不均匀的散射和冰中光的吸收,并且低于100 GEV的光,每个事件产生的信号光子数量相对较少。为了应对这一挑战,可以将ICECUBE事件表示为点云图形,并将图形神经网络(GNN)作为分类和重建方法。 GNN能够将中微子事件与宇宙射线背景区分开,对不同的中微子事件类型进行分类,并重建沉积的能量,方向和相互作用顶点。基于仿真,我们提供了1-100 GEV能量范围的比较与当前ICECUBE分析中使用的当前最新最大似然技术,包括已知系统不确定性的影响。对于中微子事件分类,与当前的IceCube方法相比,GNN以固定的假阳性速率(FPR)提高了信号效率的18%。另外,GNN在固定信号效率下将FPR的降低超过8(低于半百分比)。对于能源,方向和相互作用顶点的重建,与当前最大似然技术相比,分辨率平均提高了13%-20%。当在GPU上运行时,GNN能够以几乎是2.7 kHz的中位数ICECUBE触发速率的速率处理ICECUBE事件,这打开了在在线搜索瞬态事件中使用低能量中微子的可能性。
translated by 谷歌翻译
由于结构化数据通常不足,因此在开发用于临床信息检索和决策支持系统模型时,需要从电子健康记录中的自由文本中提取标签。临床文本中最重要的上下文特性之一是否定,这表明没有发现。我们旨在通过比较荷兰临床注释中的三种否定检测方法来改善标签的大规模提取。我们使用Erasmus医疗中心荷兰临床语料库比较了基于ContextD的基于规则的方法,即使用MEDCAT和(Fineted)基于Roberta的模型的BilstM模型。我们发现,Bilstm和Roberta模型都在F1得分,精度和召回方面始终优于基于规则的模型。此外,我们将每个模型的分类错误系统地分类,这些错误可用于进一步改善特定应用程序的模型性能。在性能方面,将三个模型结合起来并不有益。我们得出的结论是,尤其是基于Bilstm和Roberta的模型在检测临床否定方面非常准确,但是最终,根据手头的用例,这三种方法最终都可以可行。
translated by 谷歌翻译
从有限的资源中获得最大收益可以进步自然语言处理(NLP)研究和实践,同时保守资源。这些资源可能是数据,时间,存储或能源。NLP的最新工作从缩放率产生了有趣的结果。但是,仅使用比例来改善结果意味着资源消耗也会扩展。这种关系激发了对有效方法的研究,这些方法需要更少的资源才能获得相似的结果。这项调查涉及NLP效率的方法和发现,旨在指导该领域的新研究人员并激发新方法的发展。
translated by 谷歌翻译
为了识别动态网络中嵌入的系统(模块),必须制定一个多输入估计问题,该问题需要测量某些节点并将其作为预测输入。但是,由于传感器选择和放置问题,在许多实际情况下,其中一些节点可能无法测量。这可能会导致目标模块的偏差估计。此外,与多输入结构相关的识别问题可能需要确定实验者不特别感兴趣的大量参数,并且在大型网络中的计算复杂性增加。在本文中,我们通过使用数据增强策略来解决这些问题,该策略使我们能够重建缺失的节点测量并提高估计目标模块的准确性。为此,我们使用基于正规化的基于内核的方法和近似推理方法开发了系统识别方法。为感兴趣的模块保留一个参数模型,我们将其他模块作为高斯过程(GP)建模,并用所谓的稳定样条核给出的内核。经验贝叶斯(EB)方法用于估计目标模块的参数。相关的优化问题是使用预期最大化(EM)方法来解决的,在该方法中,我们采用马尔可夫链蒙特卡洛(MCMC)技术来重建未知的缺失节点信息和网络动力学。动态网络示例上的数值模拟说明了开发方法的电势。
translated by 谷歌翻译
深度卷积神经网络(DCNN)已成为生物对象识别的最新计算模型。他们的杰出成功帮助了Vision Science打破了新的基础。因此,最近的努力已经开始将这一成就转移到生物面部识别领域。在这方面,可以通过比较面部选择性生物学区域和神经元与人造层和单位进行比较来研究面部检测。同样,可以通过体内和硅面空间表示的比较来检查面部识别。在这个迷你审查中,我们总结了第一批研究。我们认为DCNN是有用的模型,它遵循生物面部识别的一般分层组织。在两个聚光灯下,我们强调了这些模型的独特科学贡献。首先,DCNN中有关面部检测的研究表明,基本面部选择性会通过前馈过程自动出现。其次,DCNN中有关面部识别的研究表明,这项挑战需要经验和其他生成机制。综上所述,由于这种新颖的计算方法能够密切控制倾向(即体系结构)和经验(即培训数据),因此这也可以为关于生物面部识别的底物的长期辩论提供详细介绍。
translated by 谷歌翻译
随着天文学中检测到的瞬变数量的迅速增加,基于机器学习的分类方法正在越来越多地使用。他们的目标通常是要获得瞬态的确定分类,并且出于良好的性能,他们通常需要存在大量观察。但是,精心设计,有针对性的模型可以通过更少的计算资源来达到其分类目标。本文介绍了Snguess,该模型旨在找到高纯度附近的年轻外乳旋转瞬变。 Snguess可以使用一组功能,这些功能可以从天文警报数据中有效计算。其中一些功能是静态的,并且与警报元数据相关联,而其他功能必须根据警报中包含的光度观测值计算。大多数功能都足够简单,可以在其检测后的瞬态生命周期的早期阶段获得或计算。我们为从Zwicky Transient设施(ZTF)的一组标记的公共警报数据计算了这些功能。 Snguess的核心模型由一组决策树组成,这些集合是通过梯度提升训练的。 SNGUESS建议的候选人中约有88%的ZTF从2020年4月至2021年8月的一组警报中被发现是真正的相关超新星(SNE)。对于具有明亮检测的警报,此数字在92%至98%之间。自2020年4月以来,Snguess确定为ZTF Alert流中潜在SNE的瞬变已发布到AMPEL_ZTF_NEW组标识符下的瞬态名称服务器(TNS)。可以通过Web服务访问ZTF观察到的任何暂时性的SNGUESS分数。 Snguess的源代码可公开使用。
translated by 谷歌翻译